Wykład 6

Rząd macierzy

Definicja 1. Jeśli $A=[a_{ij}]\in {\sf M}_{m\times n}(\mathbb K)$, to wymiar podprzestrzeni liniowej przestrzeni $\mathbb K^m$ rozpiętej na kolumnach $A^1, \ldots, A^n$ macierzy $A$ nazywamy rzędem kolumnowym macierzy $A$ i oznaczamy $\operatorname{rząd}_k A$. Wymiar podprzestrzeni liniowej przestrzeni ${\sf M}_{1\times n}$ rozpiętej na wierszach $A_1,\ldots, A_m$ macierzy $A$ nazywamy jej rzędem wierszowym i oznaczamy $\operatorname{rząd}_w A$.

Uwaga terminologiczna. Przestrzeń ${\sf M}_{1\times n}(\mathbb K)$ będziemy też oznaczali symbolem $\mathbb K^{n*}$.

Twierdzenie 1. Dla każdej macierzy $A\in {\sf M}_{m\times n}(\mathbb K)$,

$$ \operatorname{rząd}_w A=\operatorname{rząd}_k A. $$

W związku z twierdzeniem 1 ma sens następująca

Definicja 2. Liczbę $\operatorname{rząd}_w A$ ($=\operatorname{rząd}_k A$) nazywamy rzędem macierzy $A$ i oznaczamy $\operatorname{rank} A$.

Stwierdzenie 2. Jeśli $V$ $-$ przestrzeń liniowa nad $\mathbb K$, $v^1,\ldots, v^k\in V$, to wymiar podprzestrzeni $\operatorname{lin}\{v^1,\ldots, v^k\}$ jest równy liczności któregokolwiek maksymalnego podukładu liniowo niezależnego układu $v^1,\ldots, v^k$.

Dowód. Zmieniając szyk elementów $v^1, \ldots, v^k$, jeśli to konieczne, możemy przyjąć, że kolejne elementy $v^1, \ldots v^l$, gdzie $l\le k$, tworzą maksymalny układ liniowo niezależny. Stąd dla wszelkiego $l<j\le k$, układ $v^1, \ldots v^l, v^j$ jest liniowo zależny. Na podstawie twierdzenie 2 wykład 4 istnieją współczynniki $\alpha_{ij}$ oraz $\alpha_j$ nie wszystkie równe zeru, że

$$ \alpha_{1j}v^1+\cdots +\alpha_{lj}v^l+\alpha_jv^j=\mathbf 0 $$

Zauważmy, że ponieważ układ pierwszych $l$ wektorów jest liniowo niezależny, więc $\alpha_j\neq 0$. Stąd

$$ v^j=-\frac{\alpha_{1j}}{\alpha_j}v^1-\cdots -\frac{\alpha_{lj}}{\alpha_j}v^l. \tag{ogn} $$

Weźmy teraz dowolny element $x\in X:=\operatorname{lin}\{v^1, \ldots, v^k\}$. Na podstawie definicji powłoki liniowej (definicja 4 wykład 4) istnieją współczynniki $\gamma_i$, że

$$ x=\gamma_1v^1+\cdots +\gamma_lv^l+\gamma_{l+1}v^{l+1}+\cdots +\gamma_{k}v^k. $$

Dokonując podstawień w miejsce $v^{l+1}, \ldots, v^k$ w zgodzie ze wzorem (ogn) i porządkując względem $v^1, \ldots, v^l$ otrzymamy

$$ x=\left(\gamma_1-\frac{\gamma_{l+1}\alpha_{1,l+1}}{\alpha_{l+1}}-\cdots -\frac{\gamma_k\alpha_{1k}}{\alpha_k}\right)v^1+\cdots +\left(\gamma_l-\frac{\gamma_{l+1}\alpha_{l,l+1}}{\alpha_{l+1}}-\cdots- \frac{\gamma_k\alpha_{lk}}{\alpha_k}\right)v^l. $$

Na podstawie twierdzenia 4 wykład 4 wnioskujemy, że $v^1, \ldots, v^l$ jest bazą przestrzeni $X$ i w związku z tym $\dim X=l$, co kończy dowód.$\square$

W oparciu o stwierdzenie 2 możemy wyrazić twierdzenie 1 w następujący sposób:

Liczność któregokolwiek maksymalnego podukładu liniowo niezależnych wierszy macierzy $A$ jest równa liczności któregokolwiek maksymalnego podukładu liniowo niezależnych kolumn tej macierzy $A$.

Dowód twierdzenia 1. Określmy operacje elementarne na wierszach macierzy:

(I) przestawienie dwu wierszy $k$-tego z $l$-tym macierzy $A$: $$ A =\left[\begin{array}{c} A_1\\ \vdots \\ A_k \\ \vdots \\ A_l \\ \vdots \\ A_m\end{array}\right]\mapsto A' =\left[\begin{array}{c} A'_1\\ \vdots \\ A'_k \\ \vdots \\ A'_l\\ \vdots \\A'_m\end{array}\right]=\left[\begin{array}{c} A_1\\ \vdots \\A_l\\ \vdots \\ A_k\\ \vdots \\ A_m\end{array}\right]. $$

(II) zastępowanie wiersza $k$-tego przez dodanie do niego wiersza $l$-tego ($k\neq l$) pomnożonego przez skalar

$$ A\mapsto A''=\left[\begin{array}{c} A_1\\ \vdots \\ A_k+\lambda A_l \\ \vdots \\ A_l \\ \vdots \\ A_m\end{array}\right] $$

Wykażemy najpierw, że macierze $A$, $A'$ i $A''$ mają takie same rzędy wierszowe a także takie same rzędy kolumnowe.

Równość $\operatorname{rząd}_w A= \operatorname{rząd}_w A'$ jest oczywista. Niech teraz $X=\operatorname{lin}\{A_1, \ldots A_m\}$ oraz $X''= \operatorname{lin}\{A''_1, \ldots A''_m\}$. Ponieważ każdy wektor $A''_i\in X$, więc także $X''\subseteq X$. Z drugiej strony, każdy wektor $A_i=A''_i$, o ile $i\neq k$, więc należy do $X''$, a co się tyczy $A_k$, to jest on równy $A''_k-\lambda A''_l$, więc także należy do $X''$ stąd $X\subseteq X''$. W rezultacie $X=X''$, co dowodzi, że rzędy wierszowe macierzy $A$ i $A''$ są równe.

W świetle twierdzenia 2 wykład 4 wystarczy wykazać, że dla wszelkich $\alpha_1, \ldots, \alpha_n \in \mathbb K$

$$ \alpha_1A'^1+\cdots + \alpha_n A'^n =\mathbf 0\Leftrightarrow\alpha_1A^1+\cdots + \alpha_n A^n=\mathbf 0\Leftrightarrow \alpha_1A''^1+\cdots +\alpha_n A''^n =\mathbf 0. \tag{kl} $$

Biorąc pod uwagę definicje dodawania i mnożenia przez skalary w $\mathbb K^n$, pierwsza równość oznacza, że dla wszelkich $i$

$$ \alpha_1a'_{i1}+\ldots +\alpha_n a'_{in}= 0. $$

Analogicznie możemy wyrazić stosowne równości z udziałem kolumn macierzy $A$ i $A''$.

W zgodzie z definicją $A'$, dla $i\neq l,k$,

$$ \alpha_1a'_{i1}+\ldots +\alpha_n a'_{in}=\alpha_1a_{i1}+\ldots +\alpha_n a_{in}, $$

a nadto

$$ \alpha_1a'_{l1}+\ldots +\alpha_n a'_{ln}=\alpha_1a_{k1}+\ldots +\alpha_n a_{kn} $$

i

$$ \alpha_1a'_{k1}+\ldots +\alpha_n a'_{kn}=\alpha_1a_{l1}+\ldots +\alpha_n a_{ln}. $$

W konsekwencji, zachodzi pierwsza z równoważności (kl). Co do drugiej, to zauważmy, że dla wszelkich $i$ różnych od $k$

$$ \alpha_1a''_{i1}+\ldots +\alpha_n a''_{in}=\alpha_1a_{i1}+\ldots +\alpha_n a_{in} $$

oraz $$ \alpha_1a''_{k1}+\ldots +\alpha_n a''_{kn}= \alpha_1a_{k1}+\ldots +\alpha_n a_{kn} +\lambda(\alpha_1a_{l1}+\ldots +\alpha_n a_{ln}). $$ Stąd łatwo wywnioskować drugą z równoważności (kl).

w analogiczny sposób możemy określić operacje elementarne na kolumnach. Oczywiście i w tym przypadku macierze powstałe z $A$ będą miały taki sam rząd wierszowy jak $A$ i taki sam rząd kolumnowy. Jeśli $E_1, \ldots, E_s$ jest ciągiem operacji elementarnych, to z jego pomocą możemy wytworzyć ciąg macierzy:

$$ A=A^{(0)},\,\, A^{(1)}=E_1(A^{(0)}),\,\,\ldots,\, A^{(s)}=E_s(A^{(s-1)}). $$

Wtedy rząd wierszowy macierzy $A$ i podobnie rząd kolumnowy są równe odpowiednim rzędom macierzy $B$

Do operacji elementarnych możemy dorzucić jeszcze jedną. Jeśli w macierzy pojawia się kolumna albo wiersz złożone z samych zer to można je wykreślić; wynikowa macierz będzie oczywiście miała te same rzędy wierszowy i kolumnowy co wyjściowa.

Teraz opiszemy ciąg operacji elementarnych, który od macierzy $A$ doprowadzi nas do macierzy $B$, której rzędy są łatwe do odczytania. W rozumowaniu posłużymy się terminologią używaną w programowaniu: po zastosowaniu operacji elementarnej do $A$ otrzymaną macierz nadal będziemy nazywali $A$; powiemy, że macierz $A$ została zaktualizowana. Rozmiar macierzy też oczywiście jest aktualizowany.

$$ A=\left[\begin{array}{cccc} a_{11}& a_{12} &\cdots &a_{1n}\\ 0 & a_{22} &\cdots &a_{2n}\\ \vdots & \vdots &\ddots &\vdots\\ 0 & a_{m2} &\cdots & a_{mn} \end{array}\right] $$
$$ A=\left[\begin{array}{cccc} a_{11}& 0 &\cdots & 0\\ 0 & a_{22} &\cdots &a_{2n}\\ \vdots & \vdots &\ddots &\vdots\\ 0 & a_{m2} &\cdots & a_{mn} \end{array}\right] $$
$$ \left[\begin{array}{ccc} a_{22} &\cdots &a_{2n}\\ \vdots &\ddots &\vdots\\ a_{m2} &\cdots & a_{mn} \end{array}\right] $$

Postępując w sposób opisany wcześniej, dojdziemy ostatecznie do macierzy $B$ postaci:

$$ B=\left[\begin{array}{ccccc} a_{11}& 0 & 0 & \cdots & 0\\ 0 & a_{22} & 0 &\cdots &0\\ \vdots & \vdots &\vdots &\ddots &\vdots\\ 0 & 0 & 0 &\cdots & a_{kk} \end{array}\right], $$

gdzie wyrazy na przekątnej $a_{11}, a_{22}, \ldots, a_{kk}$ są niezerowe.

Oczywiście w przypadku macierzy $B$ widać, że jej rząd wierszowy i kolumnowy są identyczne i równe $k$, w takim razie i macierz $A$ ma oba rzędy równe $k$ $\square$.

Przykład. Obliczyć rząd macierzy

$$ A=\left[\begin{array}{ccc} 0 & 2 & 1\\ 1 & 1 & 1\\ 2 & 2 & 3\end{array}\right] $$

Rozwiązanie. Zamieniamy kolejnością dwa pierwsze wiersze:

$$ A^{(1)}=\left[\begin{array}{ccc} 1 & 1 & 1\\ 0 & 2 & 1\\ 2 & 2 & 3\end{array}\right]. $$

Od trzeciego odejmujemy podwojony pierwszy

$$ A^{(2)}=\left[\begin{array}{ccc} 1 & 1 & 1\\ 0 & 2 & 1\\ 0 & 0 & 1\end{array}\right]. $$

Widać już, że kolumny (wiersze) są liniowo niezależne.

Odp. $\operatorname{rank} A=3.$

Jądro i obraz odwzorowania liniowego

Definicja 3. Niech $T\in L(V,W)$. Jądrem odwzorowania liniowego $T$ nazywamy zbiór

$$ \ker T=\{x\in V\colon T(x)=\mathbf 0\}. $$

Obrazem odwzorowania liniowego $T$ nazywamy zbiór $$ \operatorname{im} T=\{y\in W\colon \text{istnieje $x\in V$, że $y=T(x)$}\}. $$

Twierdzenie 3. Niech $V, W$ $-$ przestrzenie skończonego wymiaru na $\mathbb K$ i niech $T\in L(V,W)$. Wtedy

  1. $\ker T$ jest podprzestrzenią liniową przestrzeni $V$;

  2. $\operatorname{im} T$ jest podprzestrzenią liniową przestrzeni $W$;

  3. $\color{blue}{\dim\ker T+\dim\operatorname{im} T=\dim V.}$

Dowód. Co do punktu 1, weźmy dowolne wektory $u, v\in \ker T$ oraz skalary $\alpha, \beta \in \mathbb K$. Stąd, że $T$ jest liniowe

$$ T(\alpha u+\beta v)=\alpha T(u)+\beta T(v)=\mathbf 0. $$

Co dowodzi, że $\alpha u +\beta v\in \ker T$, a zatem $\ker T$ jest podprzestrzenią przestrzeni $V$.

Co do punktu 2, niech $y, z\in \operatorname{im} T$. Wtedy istnieją wektory $u, v \in V$, że $$ T(u)=y,\quad T(v)= z. $$ Niech $\alpha, \beta \in \mathbb K$. Z liniowości $T$ $$ \alpha y+\beta z=\alpha T(u)+\beta T(v)=T(\alpha u+\beta v)\in \operatorname{im} T. $$ Stąd $\operatorname{im} T$ jest zbiorem zamkniętym na branie kombinacji liniowych, więc podprzestrzenią liniową.

Co do punktu 3, niech $\dim V=n$ oraz $\dim \ker T= r$. Niech $g^1,\ldots, g^n$ będzie bazę przestrzeni $V.$ Niech $f^1,\ldots, f^r$ $-$ baza przestrzeni $\ker T$. Zgodnie z twierdzeniem Steinitza o wymianie, spośród wektorów $g_i$ można wybrać takie, które dopełniają $f^1,\ldots, f^r$ do bazy przestrzeni $V$. Dokonując przenumerowania wektorów $g^i$, jeśli to konieczne, możemy przyjąć, że układ $f^1,\ldots, f^r, g^{r+1},\ldots, g^n$ stanowi bazę przestrzeni $V$. Niech $y\in \operatorname{im} T$. Wtedy istnieje $x\in V$, że $y=T(x)$. Rozwińmy $x$ względem bazy $f^1,\ldots f^r, g^{r+1},\ldots g^n$: $$ x=\alpha_1 f^1+\cdots +\alpha_r f^r +\alpha_{r+1}g^{r+1}+\cdots + \alpha_ng^{n} $$

Wobec tego, że $f^i\in \ker T$ mamy $T(f^i)=\mathbf 0$. Przyjmijmy oznaczenie $h^i= T(g^{r+i})$, dla $i= 1, \ldots, n-r$ i korzystając z liniowości $T$ obliczmy $y=T(x)$:

$$ y=\alpha_{r+1} h^1 +\cdots +\alpha_n h^{n-r} $$

Stąd oczywiście wynika, że

$$ \operatorname{lin}\{h^1,\ldots, h^{n-r}\}= \operatorname{im} T. \tag{im} $$

Przypuśćmy teraz, że dla skalarów $\beta_{r+1}, \ldots, \beta_n$ zachodzi związek

$$ \mathbf 0=\beta_{r+1} h^1 +\cdots +\beta_n h^{n-r} $$

Stąd dla $u=\beta_{r+1}g^{r+1}+\cdots +\beta_n g^n$ mamy $T(u)=\mathbf 0$. W takim razie $u\in \ker T$ i $u$ musi mieć rozwinięcie względem bazy $f^1, \ldots, f^r$: $u=\beta_1 f^1+\cdots +\beta_r f^r$. Wykorzystując oba rozwinięcia wektora $u$ otrzymamy $$ \mathbf 0 =u-u= (-\beta_1) f^1+\cdots +(-\beta_r) f^r+ \beta_{r+1}g^{r+1}+\cdots +\beta_n g^n. $$ Jednak układ $f^1,\ldots, f^r, g^{r+1},\ldots, g^n$ jest liniowo niezależny (jest bazą przestrzeni $V$), więc wszystkie skalary $\beta_i$ muszą być zerami, w szczególności $\beta_{r+1}=\cdots =\beta_n=0$, co dowodzi liniowej niezależności układu $h^1,\ldots, h^{n-r}$. W świetle twierdzenia 4 wykład 4 fakt ten wraz z (im) dowodzą, że układ $h^1,\ldots, h^{n-r}$ stanowi bazę przestrzeni $\operatorname{im} T$. Stąd

$$ \dim\ker T+\dim \operatorname{im} T= r+ (n-r)=n=\dim V. $$

$\square$

Macierz odwzorowania liniowego względem dowolnych baz uporządkowanych.

Dowolne przestrzenie liniowe nie mają wyróżnionych baz takich jak baza standardowa w przypadku $\mathbb K^n$, jednak ustalając w nich bazy uporządkowane możemy określić macierz odwzorowania liniowego i w tym przypadku.

Niech $\mathbb V=(v^1, \ldots, v^n)$ będzie bazą uporządkowaną przestrzeni $V$ nad $\mathbb K$ oraz $\mathbb W=(w^1,\ldots, w^m)$ $-$ bazą uporządkowaną przestrzeni $W$ nad $\mathbb K$. Niech $T\in L(V,W)$. Każdy z wektorów $T(v^i)$ rozwińmy względem bazy uporządkowanej $\mathbb W$:

$$ T(v^i)=a_{1i}w^1+a_{2i}w^2+\cdots +a_{mi}w^m, $$

To znaczy, wektor współrzędnych wektora $T(v_i)$ względem bazy uporządkowanej $\mathbb W$ przedstawia się następująco:

$$ (T(v^i))_{\mathbb W}=(a_{1i},\ldots, a_{mi})= \left[ \begin{array}{c} a_{1i}\\ \vdots\\ a_{mi} \end{array}\right]. $$

Utwórzmy macierz z tych wektorów:

$$ A_T=[(T(v^1))_{\mathbb W} \ldots (T(v^n))_{\mathbb W})] =\left[ \begin{array}{ccccc} a_{11} & \cdots & a_{1j} & \cdots & a_{1n}\\ \vdots & \ddots & \vdots & \ddots & \vdots\\ a_{i1} & \cdots & a_{ij} & \cdots & a_{in}\\ \vdots & \ddots & \vdots & \ddots & \vdots\\ a_{m1} & \cdots & a_{mj} & \cdots & a_{mn} \end{array} \right] $$

Definicja 4. Określoną powyżej macierz $A_T$ nazywamy macierzą odwzorowania $T$ względem pary baz uporządkowanych $(\mathbb V, \mathbb W)$.

Macierz ta stanowi w istocie współrzędne odwzorowania liniowego w układzie współrzędnych wyznaczonym przez parę $(\mathbb V, \mathbb W)$.

Niech $x\in V$ i niech $x=x_1v^1+\cdots +x_nv^n$; to znaczy, $x_{\mathbb V}=(x_1,\ldots, x_n)$. Wtedy

$$ \begin{eqnarray} (T(x))_{\mathbb W} &= & (x_1T(v^1)+\cdots+x_nT(v^n))_{\mathbb W}= x_1(T(v^1))_{\mathbb W}+\cdots+x_n(T(v^n))_{\mathbb W}\\ &=& x_1A_T^1+\cdots +x_n A_T^n=A_Tx_{\mathbb V} \end{eqnarray} $$

Otrzymaliśmy wzór:

$$ (T(x))_{\mathbb W} = A_Tx_{\mathbb V} \tag{wsp1} $$

Głosi on, że iloczyn macierzy $A_T$ i współrzędnych wektora $x$ względem bazy uporządkowanej $\mathbb V$ daje współrzędne wektora $T(x)$ względem bazy $\mathbb W$.

Zadanie 1. Niech $V=W$. Ustalmy w $V$ bazę uporządkowaną $\mathbb V$. Wtedy każdemu $T\in \operatorname{End}(V)$ odpowiada macierz $A_T$ względem pary $(\mathbb V, \mathbb V)$. Wykazać, że odwzorowanie $T\mapsto A_T$ jest izomorfizmem algebr $\operatorname{End}(V)$ i ${\sf M}_{n\times n}(\mathbb K)$.

Rozpatrzmy następujące zagadnienie: Przypuśćmy, że dla $V$ i $W$ wybraliśmy jakąś inną parę baz uporządkowanych $(\mathbb V', \mathbb W')$. Wtedy możemy wyznaczyć macierz $A'_T$ odwzorowania $T$ względem pary $$(\mathbb V', \mathbb W').$$ Znaleźć związek między macierzami $A'_T$ oraz $A_T$

Odwzorowanie $F(x)=x_{\mathbb V}$ jest izomorfizmem liniowym przestrzeni $V$ na $\mathbb K^n$ (patrz: twierdzenie 2 i komentarz, wykład 5). Podobnie $F'(x)= x_{\mathbb V'}$. Natomiast odwzorowania $G(y)=y_{\mathbb W}$ i $G'(y)=y_{\mathbb W'}$ są izomorfizmami liniowymi przestrzeni $W$ na $\mathbb K^m$. Stąd

$$ x_{\mathbb V}=F(x)=F(F')^{-1}F'(x)=F(F')^{-1}(x_{\mathbb V'}) $$

i odwzorowanie liniowe $F(F')^{-1}$ jest automorfizmem przestrzeni $\mathbb K^n$. Nazywamy je zamianą układu współrzędnych względem bazy $\mathbb V'$ na układ współrzędnych względem bazy $\mathbb V$. Oznaczmy macierz tego odwzorowania przez $B(\mathbb V', \mathbb V)$ lub krótko przez $B$. Podobnie, odwzorowanie $F'F^{-1}$ jest zamianą układu współrzędnych względem $\mathbb V$ na układ współrzędnych względem $\mathbb V'$. Jego macierz to $B'=B(\mathbb V, \mathbb V')$. Zauważmy, że $BB'$ jest macierzą odwzorowania $F(F')^{-1}F'F^{-1}$. Jest to odwzorowanie identycznościowe. W rezultacie $BB'=I$, gdzie $I$ macierz jednostkowa. Podobnie $B'B=I$. Stąd $B'=B^{-1}$.

Analogicznie, zamiana układu współrzędnych względem $\mathbb W'$ na układ współrzędnych względem $\mathbb W$ to $G(G')^{-1}\in \operatorname{End}(\mathbb K^m)$. Jej macierz to $C=B(\mathbb W', \mathbb W)$. Z kolei zamiana z $\mathbb W$ na $\mathbb W'$ to $G'G^{-1}$. Jej macierz $C'=B(\mathbb W, \mathbb W')=C^{-1}$.

Mamy

$$ C^{-1}(T(x))_{\mathbb W}=(T(x))_{\mathbb W'}= A'_Tx_{\mathbb V'}= A'_TB^{-1} x_{\mathbb V}. $$

Stąd mnożąc obustronnie przez $C$ otrzymamy

$$ A_Tx_{\mathbb V}= (T(x))_{\mathbb W}= CA'_TB^{-1} x_{\mathbb V} $$

Ponieważ odwzorowanie $F$ jest izomorfizmem liniowym, więc ostatni związek musi zachodzić dla wszelkich $u\in \mathbb K^n$; to znaczy $A_Tu= CA'_TB^{-1}u$. Podstawiając za $u$ wersory $e^i$, $i=1,\ldots, n$. Przekonamy się, że kolumny macierzy $A_T$ i $CA'_TB^{-1}$ są jednakowe, więc macierze są równe:

$$ A_T= CA_T'B^{-1} \tag{zam1} $$

Z takich samych powodów,

$$ A'_T= C^{-1}A_TB. \tag{zam2} $$

W szczególności, jeśli $V=W$, $\mathbb V=\mathbb W$ i $\mathbb V'=\mathbb W'$, to $B=C$ i dla każdego $T\in \operatorname{End}(V)$ mamy

$$ A'_T= B^{-1}A_TB, \quad A_T= BA_T'B^{-1} \tag{zam3} $$

Definicja 5. Dwie macierze $A, A'\in {\sf M}_{n\times n}(\mathbb K)$ nazywamy podobnymi jeśli istnieje macierz odwracalna $B\in {\sf M}_{n\times n}(\mathbb K)$, że

$$ A'=B^{-1}AB. $$

Uwagi.

  1. W świetle (zam3) nie powinno dziwić, że macierze podobne możemy uważać za macierze zadające to samo odwzorowanie liniowe ale względem różnych baz ( o ile $B\neq I$.)

  2. Jak pamiętamy $M_{n\times n}(\mathbb K)$ jest algebrą. Odwzorowanie $F\colon M_{n\times n}(\mathbb K)\to M_{n\times n}(\mathbb K)$ jest automorfizmem tej algebry, jeśli jest izomorfizmem liniowym oraz dla wszelkich $ C, D\in M_{n\times n}(\mathbb K)$, $F(CD)=F(C)F(D)$. Jeśli teraz $B\in M_{n\times n}(\mathbb K)$ jest macierzą odwracalną, to, jak łatwo sprawdzić, odwzorowanie $F$ dane wzorem

$$ F(C)=B^{-1}CB. $$

jest automorfizmem algebry $M_{n\times n}(\mathbb K)$. Takie automorfizmy nazywamy wewnętrznymi.

Zadanie 1.

  1. Wykazać, że dla każdej liczby $a\in \mathbb R$ układ $\mathbb B_a=(1, x-a, (x-a)^2, \ldots, (x-a)^n)$ stanowi bazę przestrzeni $P_{n}(\mathbb R)$.

  2. Wyznaczyć macierz odwzorowania liniowego $T\in \operatorname{End}(\mathbb R^n)$ określonego wzorem $T(w)(x)=w(x-2)$ względem pary baz $(\mathbb B_{1}, \mathbb B_{-1})$.

Zakończymy następującym

Lemat 4. Jeśli $T\in L(V, W)$ oraz $A_T$ $-$ macierz odwzorowania $T$ względem pary baz $(\mathbb V, \mathbb W)$, to

$$ \operatorname{rank}(A_T)=\dim\operatorname{im} T. $$

Dowód. Niech $\mathbb V=(v^1,\ldots, v^n)$. Ponieważ przestrzeń $\operatorname{im}T$ jest rozpięta na wektorach $T(v^1),\ldots, T(v^n)$, więc na podstawie stwierdzenia 3 wymiar $\dim\operatorname{im} T$ jest równy liczności maksymalnego podukładu liniowo niezależnego układu $T(v^1),\ldots, T(v^n)$. Odwzorowanie $y\mapsto y_{\mathbb W}$ jest izomorfizmem liniowym oraz $(T(v^i))_{\mathbb W}=A^i_T$, więc $\dim\operatorname{im} T$ jest równy liczności maksymalnego podukładu liniowo niezależnego układu $A^1_T, \ldots A^n_T$, a ta wielkość jest równa rzędowi macierzy $A$. $\square$